AI прониква в ежедневието почти без надзор. Щатите се борят да наваксат
ДЕНВЪР (АП) — Докато изкуственият разсъдък направи заглавия с ChatGPT, зад кулисите технологията безшумно проникна в всекидневието — инспекция на автобиографии за работа, заявки за наемане на жилища и даже установяване на медицински грижи в някои случаи.
Въпреки че е открито, че редица AI системи дискриминират, накланяйки везните в интерес на избрани раси, полове или приходи, държавният контрол е нищожен.
Законодателите в минимум седем щата подхващат огромни законодателни промени, с цел да контролират пристрастията в изкуствения разсъдък, запълвайки празнотата, оставена от бездействието на Конгреса. Тези оферти са едни от първите стъпки в траялата десетилетия полемика за балансиране на изгодите от тази мъглява нова технология с необятно документираните опасности.
„ Всъщност изкуственият разсъдък визира всяка част от живота ви, без значение дали го знаете или не “, сподели Суреш Венкатасубраманиан, професор от университета Браун, който е съавтор на проекта на Белия дом за Закона за правата на ИИ.
„ Сега няма да ви пука, в случай че всички работят добре. Но те не го вършат. “
Успехът или неуспехът ще зависи от законодателите, които работят със комплицирани проблеми, до момента в който договарят с промишленост, струваща стотици милиарди долари и растяща със скорост, която най-добре се мери в светлинни години.
Миналата година единствено към дузина от близо 200-те законопроекта, свързани с ИИ, показани в държавните институции, бяха признати в закон, съгласно BSA The Software Alliance, който се застъпва от името на софтуерните компании.
Тези законопроекти, дружно с над 400 законопроекта, свързани с ИИ, които се разискват тази година, значително бяха ориентирани към контролиране на по-малки елементи от ИИ. Това включва близо 200 таргетирани deepfakes, в това число оферти за възбрана на нецензурен deepfakes, като тези на Тейлър Суифт, които наводниха обществените медии. Други се пробват да овладеят чатботовете, като ChatGPT, с цел да подсигуряват, че няма да изкашлят указания за изработката на бомба, да вземем за пример.
Те са обособени от седемте държавни законопроекта, които ще се ползват в другите промишлености за контролират AI дискриминирането – един от най-перверзните и комплицирани проблеми на технологията – който се разисква от Калифорния до Кънектикът.
Онези, които учат склонността на ИИ да дискриминира, споделят, че страните към този момент изостават в установяването на защитни огради. Използването на AI за взимане на поредни решения – това, което законопроектите назовават „ принадлежности за автоматизирано взимане на решения “ – е необятно публикувано, само че значително прикрито.
Изчислено е, че 83% от работодателите употребяват логаритми, с цел да оказват помощ при наемането на работа; това е 99% за фирмите от Fortune 500, съгласно Комисията за равни благоприятни условия за претовареност.
И въпреки всичко болшинството от американците не знаят, че тези принадлежности се употребяват, демонстрира изследване на Pew Research, да не приказваме дали системите са предубедени.
ИИ може да научи пристрастия посредством данните, върху които е подготвен, нормално исторически данни, които могат да съдържат троянски кон от предходна дискриминация.
Amazon провали плана си за логаритъм за наемане, откакто беше открит да облагодетелства претендентите мъже преди съвсем десетилетие. AI беше подготвен да прави оценка нови автобиографии, като се учи от минали автобиографии - най-вече мъже претенденти. Въпреки че логаритъмът не знаеше пола на претендентите, той въпреки всичко намали автобиографиите с думата „ женски “ или изброени женски колежи, частично тъй като те не бяха показани в историческите данни, от които научи.
„ Ако позволявате на ИИ да се учи от решенията, които съществуващите мениджъри са вземали в предишното, и в случай че тези решения в предишното са били в интерес на едни хора и в неподходящо състояние на други, тогава технологията ще научи това “, сподели Кристин Уебър, юрист в групов иск, в който се твърди, че AI система, оценяваща претендентите за наем, е дискриминирала тези, които са чернокожи или испанци.
Съдебните документи разказват един от ищците по делото, Мери Луис, чернокожа жена, кандидатствала за наемане на апартамент в Масачузетс и получила мистериозен отговор: „ Услугата на трета страна, която използваме, с цел да ревизираме всички бъдещи наематели, отхвърли наемането ви. ”
Когато Луис показа две референции на наемодателя, с цел да покаже, че е плащала наема рано или в точния момент за 16 години, съгласно правосъдните регистри, тя получи различен отговор: „ За страдание, ние не одобряваме обжалвания и не може да анулира резултата от инспекцията на наемателя. “
Тази липса на бистрота и отчетност е частично задачата на законопроектите, следвайки проваленото предложение на Калифорния предходната година – първият повсеместен опит за контролиране на пристрастията към ИИ в частния бранш.
Съгласно законопроектите фирмите, употребяващи тези автоматизирани принадлежности за взимане на решения, ще би трябвало да създадат „ оценки на въздействието “, в това число описания на метода, по който AI попада в решение, събраните данни и разбор на рисковете от дискриминация, дружно с пояснение на защитните ограничения на компанията. В взаимозависимост от законопроекта, тези оценки ще бъдат предоставени на страната или регулаторите могат да ги изискат.
Някои от законопроектите също ще изискват фирмите да споделят на клиентите, че AI ще бъде употребен при вземането на решение, и да им разрешат да се откажат, с някои ангажименти.
Крейг Олбрайт, старши вицепрезидент по връзките с държавното управление на Съединени американски щати в BSA, лобистката група в промишлеността, сподели, че нейните членове като цяло поддържат някои препоръчани стъпки, като да вземем за пример оценки на въздействието.
„ Технологията се движи по-бързо от закона, само че в действителност има изгоди за наваксването на закона. Тъй като тогава (компаниите) схващат какви са техните отговорности, потребителите могат да имат по-голямо доверие в технологията “, сподели Олбрайт.
Но това беше едва начало за законодателството. Законопроект в щата Вашингтон към този момент се провали в комисията, а предложение за Калифорния, показано през 2023 година, на което са моделирани доста от актуалните оферти, също почина.
Членът на Калифорнийското заседание Ребека Бауер-Кахан го обнови законодателство, което се провали предходната година с поддръжката на някои софтуерни компании, като Workday и Microsoft, след отпадане на условието фирмите рутинно да показват своите оценки на въздействието. Други щати, в които законопроектите са или се чака да бъдат въведени, са Колорадо, Роуд Айлънд, Илинойс, Кънектикът, Вирджиния и Върмонт.
Въпреки че тези законопроекти са стъпка в вярната посока, сподели Венкатасубраманиан от университета Браун, оценките на въздействието и способността им да уловят пристрастия остават неразбираеми. Без по-голям достъп до отчетите – които доста от сметките лимитират – също по този начин е мъчно да се разбере дали обещано лице е било дискриминирано от AI.
По-интензивен, само че прецизен метод за идентифициране на дискриминация би бил да се изисква одити на пристрастия — проби за установяване дали даден ИИ е дискриминиращ или не — и за обявяване на резултатите. Това е мястото, където промишлеността се отдръпва с аргумента, че това би разкрило търговски секрети.
Изискванията за рутинно тестване на система с изкуствен интелект не са в множеството от законодателните оферти, съвсем всички от които към момента имат дълъг път напред. Все отново това е началото на законодателите и гласоподавателите, които се борят с това, което се трансформира и ще остане постоянно присъстваща технология.
„ Тя обгръща всичко в живота ви. Просто по силата на това би трябвало да ви пука “, сподели Венкатасубраманиан.
——-
Репортерът на Associated Press Trân Nguyễn от Сакраменто, Калифорния, способства.